多视图数据是指特征被分成特征集的设置,例如因为它们对应于不同的源。堆叠惩罚的逻辑回归(Staplr)是最近引入的方法,可用于分类并自动选择对预测最重要的视图。我们将此方法的扩展引入到数据具有分层多视图结构的位置。我们还为STAPLR介绍了一个新的视图重要性措施,这使我们能够比较层次结构的任何级别的视图的重要性。我们将扩展的STAPLR算法应用于Alzheimer的疾病分类,其中来自三种扫描类型的不同MRI措施:结构MRI,扩散加权MRI和休息状态FMRI。Staplr可以识别哪种扫描类型以及MRI措施对于分类最重要,并且在分类性能方面优于弹性净回归。
translated by 谷歌翻译
光学相干断层扫描(OCT)是一种非侵入性的3D模态,广泛用于视网膜的眼科。在OCT上实现自动化的解剖学视网膜层分割对于检测和监测不同视网膜疾病(如年龄相关的黄斑病(AMD)或糖尿病性视网膜病)很重要。但是,大多数最先进的层分割方法基于纯监督的深度学习,需要大量的像素级注释数据,这些数据昂贵且难以获得。考虑到这一点,我们将半监督的范式介绍到视网膜层分割任务中,该任务利用大规模未标记数据集中存在的信息以及解剖学先验。特别是,一种新型的完全可区分的方法用于将表面位置回归转换为像素结构化分割,从而使以耦合方式同时使用1D表面和2D层表示来训练模型。特别是,这些2D分割被用作解剖因素,与学习的样式因子一起组成了用于重建输入图像的分离表示。同时,我们建议一组解剖学先验,以改善有限的标记数据时,可以改善网络训练。我们在使用中间和湿amd的现实世界中的扫描数据集上证明了我们的方法在使用我们的完整训练集时优于最先进带有标记数据的一部分。
translated by 谷歌翻译
本文的重点是具有复杂损失的功能输出回归(用于)。尽管大多数现有的工作都考虑了正方形损失设置,但我们利用了Huber的扩展以及$ \ Epsilon $不敏感的损失(由虚拟卷积引起的),并提出了一个灵活的框架,能够处理家庭中各种形式的异常值和稀疏。我们得出了依靠二元性来解决矢量价值复制内核希尔伯特空间中所得任务的计算算法。该方法的效率与合成基准和现实基准的经典平方损耗设置相反。
translated by 谷歌翻译
保留数据中相似性的自动编码器模型是表示学习中的流行工具。在本文中,我们介绍了几种自动编码器模型,这些模型在从数据空间到潜在空间的映射时可以保留本地距离。我们使用局部距离保留损失,该损失基于连续的K-Nearthiend邻居图,该图已知可以同时捕获所有尺度的拓扑特征。为了提高培训绩效,我们将学习作为约束优化问题,并保存本地距离,作为主要目标和重建精度作为约束。我们将这种方法推广到分层变分自动编码器,从而学习具有几何一致的潜在和数据空间的生成模型。我们的方法在几个标准数据集和评估指标上提供了最先进的性能。
translated by 谷歌翻译
我们在分布式框架中得出最小值测试错误,其中数据被分成多个机器,并且它们与中央机器的通信仅限于$ b $位。我们研究了高斯白噪声下的$ d $ - 和无限维信号检测问题。我们还得出达到理论下限的分布式测试算法。我们的结果表明,分布式测试受到从根本上不同的现象,这些现象在分布式估计中未观察到。在我们的发现中,我们表明,可以访问共享随机性的测试协议在某些制度中的性能比不进行的测试协议可以更好地表现。我们还观察到,即使仅使用单个本地计算机上可用的信息,一致的非参数分布式测试始终是可能的,即使只有$ 1 $的通信和相应的测试优于最佳本地测试。此外,我们还得出了自适应非参数分布测试策略和相应的理论下限。
translated by 谷歌翻译
卷积网络被视为换档不变,但据证明它们的响应可能根据对象的确切位置而变化。在本文中,我们将展示大多数常见的数据集具有偏差,其中物体在训练期间在图像的中心被覆盖。这些网络的偏差和边界条件可以对这些架构的性能产生显着影响,并且当物体接近边界时,它们的精度显着下降。我们还将演示如何通过数据增强技术减轻这种效果。
translated by 谷歌翻译
情绪分析通常是许多注释器给出的主观标签的众群任务。尚未完全理解每个注释器的注释偏差如何使用最先进的方法正确建模。但是,精确且可靠地解决了注释偏见是了解注释器标记行为的关键,并成功解决有关注释任务的相应个人误解和不法行为。我们的贡献是精确神经端到端偏置建模和地面真理估计的解释和改进,这减少了对现有最先进的现有的不期望的不匹配。分类实验表明,在每个样品仅被一个单个注释器注释的情况下,它具有提高准确性。我们公开提供整个源代码,并释放包含10,000个句子的自己的域特定情绪数据集,讨论有机食品。这些蔓延从社交媒体上爬行,并由10名非专家注释器单独标记。
translated by 谷歌翻译
将机器人放置在受控条件外,需要多功能的运动表示,使机器人能够学习新任务并使其适应环境变化。在工作区中引入障碍或额外机器人的位置,由于故障或运动范围限制导致的关节范围的修改是典型的案例,适应能力在安全地执行机器人任务的关键作用。已经提出了代表适应性运动技能的概率动态(PROMP),其被建模为轨迹的高斯分布。这些都是在分析讲道的,可以从少数演示中学习。然而,原始PROMP制定和随后的方法都仅为特定运动适应问题提供解决方案,例如障碍避免,以及普遍的,统一的适应概率方法缺失。在本文中,我们开发了一种用于调整PROMP的通用概率框架。我们统一以前的适应技术,例如,各种类型的避避,通过一个框架,互相避免,在一个框架中,并将它们结合起来解决复杂的机器人问题。另外,我们推导了新颖的适应技术,例如时间上未结合的通量和互相避免。我们制定适应作为约束优化问题,在那里我们最小化适应的分布与原始原始的分布之间的kullback-leibler发散,而我们限制了与不希望的轨迹相关的概率质量为低电平。我们展示了我们在双机器人手臂设置中的模拟平面机器人武器和7-DOF法兰卡 - Emika机器人的若干适应问题的方法。
translated by 谷歌翻译
形状约束,例如非负,单调性,凸度或超模型性,在机器学习和统计的各种应用中都起着关键作用。但是,将此方面的信息以艰苦的方式(例如,在间隔的所有点)纳入预测模型,这是一个众所周知的具有挑战性的问题。我们提出了一个统一和模块化的凸优化框架,依赖于二阶锥(SOC)拧紧,以编码属于矢量值重现的载体内核Hilbert Spaces(VRKHSS)的模型对函数衍生物的硬仿射SDP约束。所提出的方法的模块化性质允许同时处理多个形状约束,并将无限数量的约束限制为有限的许多。我们证明了所提出的方案的收敛及其自适应变体的收敛性,利用VRKHSS的几何特性。由于基于覆盖的拧紧构造,该方法特别适合具有小到中等输入维度的任务。该方法的效率在形状优化,机器人技术和计量经济学的背景下进行了说明。
translated by 谷歌翻译
Generative neural samplers are probabilistic models that implement sampling using feedforward neural networks: they take a random input vector and produce a sample from a probability distribution defined by the network weights. These models are expressive and allow efficient computation of samples and derivatives, but cannot be used for computing likelihoods or for marginalization. The generativeadversarial training method allows to train such models through the use of an auxiliary discriminative neural network. We show that the generative-adversarial approach is a special case of an existing more general variational divergence estimation approach. We show that any f -divergence can be used for training generative neural samplers. We discuss the benefits of various choices of divergence functions on training complexity and the quality of the obtained generative models.
translated by 谷歌翻译